Foi originado do National Institute of Diabetes and Digestive and Kidney Diseases.
Essa base foi criada com base nos Pima, um grupo de nativos americanos que vivem em uma área que atualmente abrange o centro e o sul do estado do Arizona.
O objetivo é prever se um paciente tem diabetes com base em algumas características do paciente.
Descrição das colunas
Pregnancies: Número de gestações da paciente.
Glucose: Concentração de glicose plasmática em teste oral de tolerância à glicose.
Apenas as colunas de glicose, pressão arterial, espessura da dobra cutânea do tríceps, nível de insulina e IMC. Aquela que mais possui valores ausentes é a variável de nível de insulina.
As variáveis apresentam uma assimetria negativa, sendo a variável de pressão arterial a única mais simétrica. Além disso, observando a distribuição dos diabéticos e não diabéticos para cada variável, eles apresentam um padrão de comportamento bastante similar.
A maioria das variáveis independentes não apresentam uma alta correlação. No entanto, os níveis de insulina tem uma alta correlação com a glicose, o IMC tem uma alta correlação com a espessura da dobra cutânea do tríceps e a idade tem uma alta correlação com a quantidade de gravidez.
Os dados foram divididos entre teste e treino, com 20% para o conjunto de teste e estratificado pela variável dependente.
Os valores ausentes foram substituídos pela mediana das variáveis.
Foram criadas novas variáveis, idade por nível de insulina, glicose por predisposição de ter diabetes e o produto entre IMC e a espessura da dobra cutânea do tríceps.
Todas as variáveis foram transformadas com \(\log \left(1 + x\right)\) e normalizadas.
autoplot(grid_results, metric ="roc_auc") +theme_bw() +labs(y ="Métrica", x ="")
autoplot(grid_results, select_best =TRUE) +theme_bw() +labs(y ="Métrica", x ="")
Algoritmos e validação cruzada
A validação cruzada foi realizada com 10 folds, estratificado pela variável dependente. Assim, foram otimizados os algoritmos a quantidade de vizinhos e a métrica de distância do algoritmo de k-vizinhos mais próximos. Foram otimizados, para o naive bayes, o parâmetro de suavidade para o limite da classe e a correção da suavidade chamado de Laplace.
O modelo que obteve o melhor resultado foi o discriminante linear, com base na curva ROC e o brier. Na base de teste, ele obteve a curva ROC foi de 0,8652, o brier 0,1443 e obteve uma acurácia de 78,57%. O que pior perfomou foi o naive bayes, obtendo as piores estatísticas para todas as métricas consideradas.